其他
接个微信视频被骗430万,网络安全专家教你火眼金睛识别“AI假脸”bug→
整理/新媒体编辑 吕冰心话题#AI诈骗正在爆发#冲上微博热搜。近日,内蒙古自治区包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件,福州市某科技公司法人代表郭先生10分钟内被骗430万元。据悉,郭先生的好友突然通过微信视频联系他,自己的朋友在外地竞标,需要430万保证金,且需要公对公账户过账,想要借郭先生公司的账户走账。基于对好友的信任,加上已经视频聊天核实了身份,郭先生没有核实钱款是否到账,就分两笔把430万转到了好友朋友的银行卡上。郭先生拨打好友电话,才知道被骗。骗子通过智能AI换脸和拟声技术,佯装好友对郭先生实施了诈骗。更直白的解读是:现在的AI技术能够合成你身边熟人的脸和声音,给你打视频电话借钱。不少网友大呼可怕,“以往AI换脸大多都是针对社会名人的,如今黑科技运用在对社会公众的诈骗上,令人防不胜防。”北京邮电大学网络空间安全学院教授周琳娜在接受记者采访时表示,“AI换脸”检测技术有多种手段,对于公众而言,可以依据“AI假脸”的bug进行简单识别。AI诈骗常用手法有哪些?如何一秒识别“AI假脸”?一起来看防范小妙招>>
AI诈骗的常用手法
第一种:声音合成
骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。例如实施情感诈骗时,可以筛选出经常发布感情类信息的人群;实施金融诈骗时,可以筛选出经常搜索投资理财信息的人群。
如何轻松识别“AI假脸”?
在人工智能时代,我们眼睛见到的未必是真的。“AI换脸”技术的学术名词叫做深度伪造技术(Deepfake),也就是深度学习(Deep learning)+伪造(fake),是机器深度学习技术和人脸假冒的结合体。
然而AI技术不是原罪,而是利用技术手段进行非法操作的人。北京邮电大学网络空间安全学院教授周琳娜接受记者采访时表示,“AI换脸”检测技术有多种手段,对于公众而言,可以依据“AI假脸”的bug进行简单识别。首先是注意观察“AI假脸”的纹理特征。比如,伪造后的视频人物的眼睛或牙齿轮廓细节容易不一致;两只眼睛瞳孔的颜色不一样或瞳孔中心反射的细节不一样;或是很多伪造视频由于视频分辨率低于原始视频分辨率,伪造出来视频的牙齿边缘过于整齐等。其次,注意观察“AI假脸”的生物特征。“AI假脸”有可能不符合正常人的生理特征,比如,一个健康成年人一般间隔2-10秒眨一次眼,每次眨眼用时0.1-0.4秒,而在伪造视频中,人的眨眼频率可能不符合上述规律。再次,注意观察“AI假脸”的嘴部固有特征。比如,由于人嘴部的运动是最为频繁且快速的,因此AI软件无法真实准确地渲染其连续动作。基于此,可以作为判断视频真假的因素之一。此外,伪造后的视频会造成一定的视频抖动,导致视频出现帧间不一致情况。在周琳娜看来,“AI换脸”的负面影响出现在电信诈骗中,会造成整个社会公信力降低的问题。“AI换脸”技术是一个新兴事物,它能给我们的社会带来很多便捷,但是也会影响到我们的生活。因此必须结合社会需求、技术能力,完善和制定好相关法律法规,做好“AI换脸”技术的应用和治理。
如何防范电信诈骗?
多重验证,确认身份
如果有人要求你分享个人身份信息,如你的地址、出生日期或名字,要小心。对突如其来的电话保持警惕,即使是来自你认识的人,因为来电显示的号码可能是伪造的。网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助。如果有人自称“熟人”、“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息。保护信息,避免诱惑不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等。陌生链接不要点,陌生软件不要下载,陌生好友不要随便加,防止手机、电脑中病毒,微信、QQ等被盗号。提高安全防范意识公检法没有安全账户,警察不会网上办案,如果有网络警察说你犯事了,让他联系你当地的派出所,你也可以主动打110咨询。如不慎被骗或遇可疑情形,请注意保护证据立即拨打96110报警。(来源:首都科学讲堂、中国新闻社、平安包头、北京日报等)
我们在等你
出品:科普中央厨房 监制:北京科技报 | 北科传媒 欢迎分享到朋友圈 公众号、报刊等转载 请发邮件至bjkjbeditor@163.com 未经授权谢绝转载,违者必究 识别二维码,下载“北京科技报”客户端